Demo final
Bem-vindo à nossa demo final, onde você terá a oportunidade de ver nossa pipeline de dados em pleno funcionamento! Nesta demonstração, apresentaremos um vídeo que mostra todos os componentes da nossa pipeline trabalhando em conjunto para coletar, processar e visualizar dados de poluição sonora e de gases.
Vídeo da Pipeline em Ação
Assista ao vídeo abaixo para ver nossa pipeline de dados em ação. Você será levado por todo o processo, desde a geração e publicação dos dados até sua visualização em um dashboard interativo.
Explorando os Dados no Metabase
Após assistir ao vídeo, convidamos você a explorar os dados coletados em nosso dashboard interativo no Metabase. O Metabase oferece uma interface intuitiva e poderosa para visualizar e analisar dados em tempo real.
Acesse o dashboard no Metabase
Vídeo Demo da Arquiterura
Assista ao vídeo abaixo para ver a arquitetura da nossa pipeline de dados em ação. Você será levado por todo o processo, desde a geração e publicação dos dados até sua visualização em um dashboard interativo.
Como rodar
Configuração Inicial:
- Clone o repositório do projeto para sua máquina local
- Inicialize o Módulo Go: Navegue até o diretório do projeto e inicialize o módulo Go:
go mod init
go mod tidy
Configuração do HiveMQ
- Acesse o site do HiveMQ e crie um broker, protegendo-o com usuário e senha de permissão administrativas.
Configure o Publisher
- Abra o arquivo publisher.go no diretório do projeto.
- Substitua os campos HiveMQUsername e HiveMQPassword com as credenciais da sua conta HiveMQ.
Configuração do Kafka
- Crie um cluster no Confluent Kafka seguindo as instruções fornecidas pela plataforma.
Configuração do MongoDB
- Crie uma Database no MongoDB
- Acesse seu servidor MongoDB e crie uma nova database para a pipeline de dados.
- Configure um sink connector no Confluent Kafka para enviar os dados do tópico para a database MongoDB.
Configuração na AWS:
- Crie uma instância EC2 na AWS e configure um grupo de autoscaling para gerenciar a escalabilidade.
- Configure um load balancer para distribuir o tráfego entre as instâncias EC2.
- Instale o Docker na instância EC2 e execute um contêiner do Metabase.
- Configure o Metabase para se conectar à database MongoDB como fonte de dados.
Execução da Pipeline:
No diretório do projeto, execute o comando para iniciar o generator e gerar os valores simulados de dados:
go run generator.go
No mesmo diretório, execute o comando para iniciar o publisher e publicar os dados gerados no HiveMQ:
go run publisher.go
Com esses passos, você configurará e executará a pipeline de dados completa, desde a geração dos dados simulados até a visualização no Metabase. Certifique-se de seguir todas as etapas com cuidado e de configurar corretamente as credenciais e conexões necessárias.